• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " ML"에 대한 통합 검색 내용이 154개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
알테어, '데이터 패브릭' 전문 기업 케임브리지 시맨틱스 인수
알테어가 기업 내 분산된 다양한 데이터를 통합하고 관리하는 ‘데이터 패브릭’ 솔루션과 데이터를 그래프 형태로 모델링하는 ‘그래프 데이터베이스’ 기술을 보유한 전문 기업 ‘케임브리지 시맨틱스(Cambridge Semantics)’를 인수했다고 발표했다. 케임브리지 시맨틱스는 2007년 IBM 첨단기술그룹 출신의 혁신/엔지니어링 팀이 설립한 기업이다. 이번 인수로 알테어는 IBM 네티자(IBM Netezza)와 아마존 레드시프트(Amazon Redshift) 데이터웨어하우스 개발에 핵심적인 역할을 한 케임브리지 시맨틱스의 기술 인력도 영입하게 됐다.  알테어의 샘 마할링감 최고기술책임자(CTO)는 “이번 인수로 알테어의 분석/데이터 사이언스 팀에 탁월한 데이터웨어하우징 전문성을 보유하게 됐다”면서, “데이터 생성에서 실제 비즈니스 영향까지, 전체 데이터 라이프사이클을 완벽히 이해하는 엔지니어링 그룹을 갖추게 됐다”고 설명했다. 케임브리지 시맨틱스의 지식 그래프, 데이터 거버넌스, 가상화, 검색 기술은 알테어의 데이터 분석 플랫폼인 ‘래피드마이너’에 통합돼 기존 데이터 준비, ETL, 데이터 사이언스, BI, MLOps, 워크로드 관리 등의 기능과 시너지를 낼 예정이다. 알테어의 짐 스카파 CEO는 “지식그래프는 데이터 패브릭의 핵심 요소로서 기업의 분산 데이터를 통합해 통찰력 있는 의사결정과 혁신적 데이터 활용을 가능케 한다”면서, “케임브리지 시맨틱스 인수로 대규모 데이터와 복잡한 질의 처리, 비즈니스 컨텍스트를 제공하여 AI의 단점인 할루시네이션(hallucination : 환각현상) 문제의 해결이 가능한 최고 수준의 지식 그래프 기술을 확보했다”고 밝혔다.  
작성일 : 2024-04-19
오라클, AI/ML 기반으로 복잡성과 비용 줄인 ‘글로벌 분산형 자율운영 데이터베이스’ 출시
오라클은 ‘오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)’를 정식 출시한다고 발표했다.  대규모 데이터베이스를 작은 단위로 분할하여 저장하는 샤딩(sharding) 기술을 바탕으로 구축된 글로벌 분산형 자율운영 데이터베이스는 오라클 자율운영 데이터베이스(Oracle Autonomous Database)의 이점을 제공하는 동시에, 고객이 데이터 배포 및 배치 정책을 직접 관리할 수 있는 제어 권한도 제공한다. 기업이 이를 활용하면 전 세계 어디에서나 자동으로 데이터를 배포 및 저장하고 애플리케이션에 그 위치를 공유할 수 있다. 또한 이를 통해 높은 수준의 확장성과 가용성을 확보할 수 있고, 데이터 주권 요구 사항을 지원하는 등 자율운영 기능의 이점을 누리며 비용까지 절감할 수 있다는 것이 오라클의 설명이다. 오라클의 글로벌 분산형 자율운영 데이터베이스는 거의 모든 데이터 유형과 워크로드, 프로그래밍 방식을 대규모로 지원해 미션 크리티컬 애플리케이션을 위한 분산형 데이터베이스의 개발 및 사용 절차를 간소화한다. 기존 SQL 애플리케이션을 사용하고 있다면 재작성(rewrite) 없이 분산형 데이터베이스를 사용할 수 있다. 다양한 애플리케이션의 요구 사항 충족을 위해 오라클 글로벌 분산형 자율운영 데이터베이스는 많은 데이터 배포 및 복제 방식을 지원한다. 일반적으로 분산형 데이터베이스는 많은 수의 서버가 여러 위치에 배포되므로 관리 및 배포가 어려울 수 있다. 오라클의 글로벌 분산형 자율운영 데이터베이스는 자율운영 데이터베이스의 AI 및 ML 기반 자동화 기능과 자동 배포 및 샤드 관리 기능을 사용하거나 확장하여 이와 같은 복잡성을 제거한다. 관리자는 분산형 데이터베이스를 단일 논리 데이터베이스로 관리할 수 있고, 자동화된 프로비저닝과 튜닝, 확장, 패칭, 보안 기능을 사용해 시간이 많이 드는 수동 작업 및 잠재적 오류를 없앨 수 있다. 또한 개별 샤드당 자동 데이터베이스 확장 기능 덕분에 고객은 수요에 따라 리소스를 늘리거나 줄일 수 있고, 소비와 비용을 줄일 수 있다. 한편, 오라클이 기술 스택 전반에 생성형 AI를 통합하면서 개발자들은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 등 AI 및 ML을 자신의 애플리케이션에 통합시켜주는 새로운 도구를 보유하게 됐다. 셀렉트 AI는 거대 언어 모델(LLM)을 사용해 대화형 스레드 속 자연어로 이루어진 질문을 SQL 쿼리로 번역한다. SQL 쿼리는 글로벌 분산형 자율운영 데이터베이스를 통해 적절한 국가 또는 샤드로 라우팅되고 답변이 생성된다. 래프트(Raft) 정족수 기반 합의 복제 기능을 갖춘 오라클 데이터베이스 23c(Oracle Database 23c)가 데이터 손실 없는 3초 미만의 자동 애플리케이션 페일오버(failover)도 제공한다. 이와 함께 검색 증강 생성(RAG) 기술을 통합한 AI 벡터 검색(AI Vector Search) 역시 올해 안에 출시될 예정이다. 오라클의 후안 로이자(Juan Loaiza) 미션 크리티컬 데이터베이스 기술 총괄 부사장은 “글로벌 사업 조직을 운영하는 기업의 경우, 데이터 주권 및 확장성, 가용성에 대한 특정한 애플리케이션 요구 사항을 가질 수밖에 없으며, 이러한 요구 사항은 대륙 및 국가별로 다양하다. 이와 같은 요구 사항들은 글로벌 배포를 지원하는 미션 크리티컬 분산형 데이터베이스 아키텍처를 통해 지원할 수 있다”면서, “새로운 글로벌 분산형 자율운영 데이터베이스는 이 같은 요구 사항을 충족시켜, 고객이 탄력적인 서버리스 오라클 자동 스케일 아키텍처를 활용해 비용을 크게 줄일 수 있다. 융합형 데이터베이스 기능을 갖춘 오라클의 새로운 글로벌 분산형 자율운영 데이터베이스는 세계에서 가장 간편하고 가장 많은 기능을 갖춘, 미션 크리티컬 환경에 가장 적합한 분산형 데이터베이스 클라우드 서비스”라고 강조했다.
작성일 : 2024-03-05
오라클, 글로벌 스타트업 육성 프로그램 선발 기업에 클라우드 인프라 제공
한국오라클이 정보통신산업진흥원(NIPA)과 함께 진행한 글로벌 SaaS(서비스형 소프트웨어) 육성 프로그램(GSIP)과 창업진흥원(KISED) 및 서울 과학기술대학교와 함께 진행한 글로벌 협업 프로그램 ‘미라클’을 통해 선발된 스타트업 총 3개사에 오라클 클라우드 인프라스트럭처(OCI) 및 인공지능(AI)/머신러닝(ML) 서비스와 기술을 지원해, 보다 향상된 AI 인프라를 통한 사업 다각화와 효율적인 운영을 지원했다고 밝혔다. 이번 프로그램을 통해 선정된 스타트업들은 클라우드 기반의 AI/ML 기능을 활용해 스마트 솔루션 개발 및 서비스 사업을 수행하고 있는 회사들로, 이번에 선정되어 한국오라클이 신규로 지원한 기업은 아테모스, 파우스트, 히어로웍스 3개사로 AI 특화 스타트업이다. 이들 기업은 OCI 도입 및 활용을 통해 산업 빅데이터 분석, 콘텐츠 생산 및 인간 언어·감정 분석 등 AI 기술 혁신을 달성했다. 또한 한국오라클로부터 AI/ML 서비스 관련 기술 컨설팅 및 클라우드 크레딧도 지원받아 기존 AI 인프라의 비용 및 효율성 문제를 극복했다. 클라우드 기반 인공지능(AI) 솔루션 전문 기업 아테모스는 에너지 집약적 산업의 중소기업을 대상으로 한 에너지 효율화 SaaS 구축을 위해 GSIP 프로그램에 참가했다. 이를 통해 한국오라클의 지원을 통해 시장 확대에 유리한 고효율의 자동화된 에너지 빅데이터 분석ꞏ진단 자동화 플랫폼을 구현할 수 있었다. 또한 뛰어난 성능, 안정성 및 가격경쟁력을 갖춘 OCI 기반으로 SaaS 시스템을 구축함으로써 구축 및 유지보수 비용을 절감했다. 이와 더불어 안전하고 보안성 높은 OCI 덕분에 한국클라우드산업협회(KACI)의 ‘클라우드 서비스 확인제’ 인증을 획득한 바 있다. 노코드(no-code) AI 서비스 개발 플랫폼 기업 파우스트는 자사의 장기적 사업 목표인 ‘AI 마켓플레이스’ 구축에 적합한 성능, 안정성 및 비용효율성을 갖추고 있다는 점에 주목해 OCI를 도입했다. 파우스트는 손쉽게 콘텐츠를 생성하는 AI 애플리케이션을 단기간에 개발해 판매하도록 지원하는 플랫폼을 준비하는 단계에서 OCI를 도입, 유연한 GPU 기반의 클라우드 서비스를 활용해 AI 애플리케이션 서비스를 검증할 수 있었으며, 나아가 다수 업체와 파트너십을 구축했다. 호스피탈리티 테크 전문 기업 히어로웍스는 호텔 산업의 고객 관리 디지털화를 위해 OCI를 도입, 개별 호텔의 요구 사항에 기반한 맞춤형 리뷰 분석 시스템을 개발했다. 이러한 AI 모델은 OCI 상의 GPU 기반으로 구동돼 약 95% 정확도로 리뷰 카테고리를 판별해내는 성능을 제공한다. 또한 OCI ML/AI 기능으로 한국어, 영어, 일본어, 아랍어 등 다국어 번역을 지원한다. 향후 OCI를 기반으로 이러한 리뷰 분석 AI 모델에서 감성의 근거가 되는 의견을 찾아내는 기능을 추가 개발할 예정이다. 한국오라클 ODP 클라우드 사업부의 김현정 전무는 “이번 한국오라클과 정보통신사업진흥원의 GSIP 프로그램에 참여한 국내 스타트업의 OCI 도입 성공사례는 AI 솔루션의 민주화 및 혁신경쟁력 제고를 가능케하는 오라클 클라우드의 장점을 보여준다”면서, “앞으로도 한국오라클은 AI 혁신의 첨병 역할을 하는 인프라를 제공해 신뢰도 높은 AI의 혜택을 확산시키기 위해 노력할 것”이라고 말했다.
작성일 : 2024-01-22
[무료다운로드] 생성형 AI 코딩으로 프로그램 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크    이번 호에서는 트랜스포머(transformer) 기반 생성형 AI 모델로 다국어 번역기, 문장 분류, 이미지 설명 텍스트 생성 프로그램의 개발 방법을 간략히 살펴본다. 트랜스포머는 텍스트, 이미지 등 데이터를 숫자로 표현한 토큰으로 인코딩한 후, 목표 라벨 데이터 결과와 차이가 적은 방향으로 가중치인 어텐션(attension) 벡터를 갱신하여 학습 모델을 만드는 기술이다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   트랜스포머는 현재 문장 성격 및 특징 분류, 다국어 번역, 비전 이미지 설명 및 생성, 음성인식, Voice to Text, 음악 작곡, 글 분류, 글 자동 요약 등 다양한 영역에서 사용된다. 이번 호에서는 관련 기능을 트랜스포머로 간단히 구현해 본다.    그림 1. 트랜스포머 개념 및 아키텍처   트랜스포머의 이론적 개념 등은 다음의 링크를 참고한다. 머신러닝 딥러닝 신경망 개념, 종류 및 개발 : https://daddynkidsmakers.blogspot.com/2017/02/blog-post_24.html 어텐션 기반 트랜스포머 딥러닝 모델 이해, 활용 사례 및 파이토치(Pytorch)를 통한 간단한 사용방법 소개 : https://daddynkidsmakers.blogspot.com/2021/10/blog-post.html 간단한 트랜스포머 동작 원리와 파이토치 기반 비전 트랜스포머 ViT 소개 : https://daddynkidsmakers.blogspot.com/2023/02/pytorch-vit.html 오디오, 영상, 텍스트, 센서, 3D깊이맵 멀티모달 딥러닝 모델 페이스북 이미지바인드(imagebind) 설치 및 사용기 : https://daddynkidsmakers.blogspot.com/2023/05/imagebind.html   개발 준비 파이썬(Python), 쿠다(CUDA) 등이 설치되어 있다는 가정 하에, 다음 명령어를 이용해 관련 패키지를 설치한다. pip install transfomers sentencepiece   간단한 텍스트 생성형 AI 개발 다음과 같이 트랜스포머 모델에서 사전학습된 distilgpt2를 사용해 간단한 텍스트 생성형 AI 코드를 개발해 본다. from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained("distilgpt2") model = AutoModelWithLMHead.from_pretrained("distilgpt2") input_ids = tokenizer.encode("I like gpt because it's", return_tensors='pt') greedy_output = model.generate(input_ids, max_length=12) print(tokenizer.decode(greedy_output[0], skip_special_tokens=True)) 실행 결과 <그림 2>와 같이 ‘I like gpt because it's’ 이후 문장을 자연스럽게 생성한다.   그림 2   텍스트의 빈칸 단어 예측 다음은 MLM(Mask Language Model) 방식으로 학습된 모델을 이용해, [MASK] 토큰으로 정의된 단어를 문장 맥락을 고려해 예측하는 코드이다.  from transformers import pipeline unmasker = pipeline('fill-mask', model='albert-base-v2') unmasker("mlm and nsp is the [MASK] task of bert.") 결과는 <그림 3>과 같다. 빈칸의 단어가 잘 예측된 것을 확인할 수 있다.   그림 3   이미지 설명 텍스트 생성 이제 주어진 이미지를 설명하는 텍스트를 생성해 본다. 목표는 입력 이미지에 대해 두 마리의 고양이가 누워있음을 표현하는 텍스트를 얻는 것이다.   그림 4     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-01-04
멀티피직스 해석, 안전 시뮬레이션, Simcenter 3D
멀티피직스 해석, 안전 시뮬레이션, Simcenter 3D   주요 CAE 소프트웨어 소개    ■ 개발 : 지멘스 디지털 인더스트리 소프트웨어, www.plm.automation.siemens.com/global/ko ■ 자료 제공 : 지멘스 디지털 인더스트리 소프트웨어, 02-3016-2000, www.plm.automation.siemens.com/global/ko / 델타이에스, 070-8255-6001, www.deltaes.co.kr / 스페이스솔루션, 02-2027-5930, www.spacesolution.kr   Simcenter 3D는 구조, 음향, 유동, 열, 모션, 전자기장, 재료 및 복합소재 해석을 지원하고, 최적화 및 다중 물리 시뮬레이션을 포함하는 시뮬레이션 솔루션이다.  솔버 및 전/후처리 기능은 시뮬레이션 기반의 통찰력을 시간 내에 얻기 위해 필요한 모든 도구를 제공한다. 또한, 1D/3D를 연동한 시뮬레이션 및 시험/시뮬레이션을 연계한 Hybrid 모델링 기능 덕분에 Simcenter 3D는 이전보다 현실적인 시뮬레이션 성능을 제공할 뿐만 아니라, 데이터 관리 기능을 갖춘 확장 가능한 개방형 CAE 통합 환경이다.  Simcenter 3D는 고성능의 지오메트리 편집, 연상 시뮬레이션 모델링 및 다분야 솔루션을 업계 전문 기술과 통합하여 시뮬레이션 프로세스 속도를 단축한다. Simcenter 3D는 모든 CAD 데이터와 함께 사용할 수 있는 독립형 시뮬레이션 환경을 제공하며, NX와 통합되어 원활한 CAD/CAE 경험을 제공한다. 1. 주요 기능 (1) CAE 전처리(Pre-Processing) 기능 CAD/CAE 단일 사용자 환경에서 설계자부터 전문 해석자까지 사용 가능한 CAE 전/후처리 도구를 제공하고, 높은 수준의 CAD 수정/편집 기능을 이용하여 더욱 효율적이고 빠르게 3D 시뮬레이션 모델을 생성할 수 있다. ■ 설계 검증을 위한 CAE/CAE 통합 사용자 환경지원 ■ 다분야, 다물리 해석을 위한 플랫폼 제공 ■ 동기화 기술로 직관적이고 빠른 CAD 수정 ■ CAD 형상 연계 유한요소 생성 ■ 복잡한 모델을 위한 유한요소 Assembly 구조 지원 ■ Simcenter Nastran 외 3rd Party Solver 지원 ■ 설계 검증 프로세스 구축 및 자동화 가능 (2) 구조 해석 Nastran Solver를 이용하여 정적, 모드, 좌굴 해석 등의 선형 구조 해석을 지원하고, 미소변형 및 거동하는 대형 제품의 구조 해석을 빠르게 수행하는 SMP, DMP 방식의 병렬계산을 지원한다. 기하 비선형, 접촉, 소성, 크립, 초탄성 거동 등 모든 비선형 모델을 지원할 뿐만 아니라, 대부분의 선형 비선형 문제를 순차적으로 수행할 수 있는 Multistep 솔루션을 제공한다.  특히 가스터빈, 펌프 등의 회전 시스템이 작동할 때 회전 RPM/Unbalance/Gyroscope 효과에 의해 공진주파수가 변화하여 진동을 유발하는 형상에 대해 예측하고 개선하는 Rotor Dynamics 솔루션과 3D Printing 형상의 제작 과정에서 열변형 등의 문제를 사전에 예측하여 변형된 보상 형상을 CAM에 내보냄으로써 실제로 출력하고자 하는 형상을 trial-and-error를 최소화하는 Additive Manufacturing 솔루션을 제공한다. (3) 음향 분석 음향 해석은 보다 조용한 제품, 소음 규제 준수, 음장 예측 작업 등 당면 과제를 해결하는 데에 도움이 될 수 있다. Simcenter 3D는 통합 솔루션 내에서 내부 및 외부 음향 해석을 제공하여 초기 설계 단계에서 정보에 기반한 의사 결정을 지원하여, 제품의 음향 성능을 최적화하도록 한다. 확장 가능한 통합 모델링 환경에는 효율적인 솔버와 해석이 용이한 시각화 기능이 통합되어 있어서 제품의 음향 성능을 신속하게 파악할 수 있다. ■ 경계요소법(BEM), 유한요소법(FEM), 기하 음향학(RAY) 기반의 음향해석 지원 ■ AML(Automatically Matched Layer)을 이용한 무한 방사조건 지원 ■ FEM AO(Adaptive Order)를 이용한 계산속도 향상 ■ 다양한 시뮬레이션을 이용한 소음해석 프로세스 → MBD/EM/CFD to NVH (4) NVH & FE-TEST Correlation 시스템 수준의 FE 및 테스트 결합 Hybrid 모델을 만들고 실질적 하중 조건 규명(TPA)과 소음 및 진동 반응을 시뮬레이션 하는데 필요한 도구가 결합되어 있다. 소음 및 진동 성능을 탐색하고 가장 중요한 원인을 정확히 파악하기 위한 여러 가지 시각화 및 해석 도구가 여기에 포함된다. 사용자에게 익숙한 도구를 통해 엔지니어는 설계를 신속하게 수정하고 소음 및 진동 성능의 영향을 몇 분 안에 평가할 수 있다.  Simcenter 3D는 시뮬레이션 모델의 신뢰성을 향상시킬 목적으로 측정된 동특성과 예측 모델 사이의 상관관계를 규명하고, Nastran SOL200 기반의 민감도 해석을 통해 시뮬레이션 모델의 신뢰성 향상 및 모델링 표준화를 지원하는 FE-TEST Correlation을 지원한다. (5) 모션 해석 복사기, 슬라이딩 선루프 또는 윙플랩 같은 복잡한 기계 시스템의 작동 환경을 이해하는 것은 어려울 수 있다. 모션 시뮬레이션은 기계 시스템의 반력, 토크, 속도, 가속도 등을 계산한다. CAD 형상 및 어셈블리 구속조건을 정확한 모션 모델로 즉시 변환하거나 처음부터 직접 모션 모델을 만들 수 있으며, 내장된 모션 솔버와 후처리 기능을 통해 제품의 다양한 거동을 연구할 수 있다. (6) 내구 해석 내구성 엔지니어에게 가장 어려운 작업은 가장 효율적인 방식으로 오류 방지 구성요소와 시스템을 설계하는 작업이라는 데에는 이견이 없다. 피로 강도가 충분하지 않은 시스템 부품은 영구적인 구조적 손상과 생명에 위협이 될 수 있는 상황을 초래할 수 있다. 실수는 제품 리콜을 초래해 제품뿐만 아니라 전체 브랜드 이미지에 부정적인 영향을 미칠 수 있다.  개발 사이클이 짧아지고 품질 요구사항이 계속 증가하면서 테스트 기반 내구성 방식은 그 한계를 드러내고 있다. 시뮬레이션 방법으로 내구성 성능을 평가하고 향상시키는 것이 유일하게 유효한 대안이다. Simcenter는 실제 하중 조건을 빠르고 정확하게 고려해 피로 수명 예측 해석을 수행할 수 있는 최첨단 해석 방법에 대한 액세스를 제공한다. (7) 열해석 Simcenter 3D Thermal은 열 전달 솔루션을 제공하고 복잡한 제품 및 대형 어셈블리에 대한 전도, 대류 및 복사 현상을 시뮬레이션할 수 있는 기본 기능 뿐만 아니라 정교한 복사 분석, 고급 광학 특성, 복사 및 전기가열 모델, 1차원 유압 네트워크 모델링 및 위상 변화, 탄화(Charring) 및 삭마(Ablation)와 같은 고급 재료모델을 위한 광범위한 방법을 제공한다. 사용자는 Simcenter 3D 통합 환경을 활용하여 신속한 설계변경 및 열 성능에 대한 신속한 피드백을 얻을 수 있고, 설계 및 엔지니어링 프로세스와 쉽게 통합되는 Simcenter 3D 열 해석 솔루션은 설계자와 해석자의 공동작업을 용이하게 하여 제품 개발의 생산성 향상을 지원한다. ■ 분리, 불일치 요소면, 형상의 자동 연결 ■ 모델링 자동화를 위한 유저 서브루틴, 유저 플러그인, 수식 및 API를 지원 ■ 통합된 환경에서 복합 열전달, 열-유동, 열-구조 등 연성해석 수행 가능 ■ ECAD와 연계로 반복작업과 모델링 에러 개선 (8) 유동해석 Simcenter 3D Flow는 복잡한 부품 및 어셈블리의 유체 유동을 모델링하고 시뮬레이션하기 위한 정교한 도구를 제공하는 CFD 솔루션이다. 잘 확립된 Control-Volume 공식의 성능과 정확성을 Cell-Vertex 공식과 결합하여 Navier-Stokes 방정식으로 설명된 유체 운동을 이산화하고 효율적으로 해결한다. 압축성(Compressible) 유체 및 고속(High Speed) 유동, non-Newtonian 유체, 무거운 입자추적(tracking of heavy Particles) 및 다중회전 기준 프레임(multiple rotating frames of reference)을 포함하는 내부 또는 외부 유체의 유동 시뮬레이션을 지원한다. ■ 단일 환경에서 Multi-Physics 시뮬레이션 기능 지원, 열-구조-유동 연성해석 ■ ECAD와 연동하여 전자장치의 냉각을 위한 최적화된 열-유동 해석 도구를 제공 (9) Material Engineering 오늘날 다양한 분야에서 첨단 소재를 사용함으로써 제품을 혁신하고 있으며, 이러한 이유로 새로운 소재들이 시장에 빠른 속도로 도입되고 있다. 첨단 소재를 제품에 적용할 때 균열은 매우 중요한 고려 사항이지만, 첨단 소재의 마이크로(micro) 및 메조(meso) 균열은 기존의 유한 요소법으로 모델링 및 해석하기가 어렵다.  하지만 Simcenter 3D는 완전한 대표 체적요소(RVE : Representative Volume Element) 분리, 소재 내부의 균열 또는 응집 영역(cohesive zones) 등 마이크로 레벨의 재료 특성을 고려할 수 있으며, 이를 통해 매크로(macro) 구조 모델과 마이크로 구조 모델이 전체 격자가 분리된 상태에서 균열이 소재를 통해 전파되는 현상을 해석할 수 있다.  (10) 저주파 전자기장 해석 Simcenter 3D LFEM은 모터, 변압기, 스피커 등의 전기기기에 대한 성능, 열에 의한 에너지 손실과 같은 전자기적 특성을 예측하는 솔루션을 제공한다. 3D CAD 모델로부터 전자기장 해석 모델을 구축하여 정교한 자성 재료 정의하고 속성, 경계 조건 및 통합 1D 회로 모델링 도구를 사용하는 부하를 정의할 수 있으며, 결과의 정교한 후처리를 수행하는 전자기장 해석 전과정을 지원한다. ■ 전자기장 해석에 필요한 고급 재료물성 지원 ■ 6자유도 운동을 고려한 전자기장 해석 ■ 해석 시간을 절감하는 고급 격자생성 기능 및 경계조건 지원(Smart Meshing & BC) ■ 전자기-열 연성해석 ■ 전자기장 해석결과로부터 열/유동/소음진동 해석을 진행하는 프로세스 제공 (11) 고주파 전자기장 해석 Simcenter 3D HFEM은 항공우주 산업의 전자기 호환성(EMC) 관련 인증의 핵심 주제인 번개(IEL) 및 고강도 복사장(HIRF)의 간접 효과를 검증하는 시뮬레이션을 지원한다. 또한 자동차 산업에서 ADAS(Advanced Driver Assistance System) 및 센서뿐만 아니라 EV 파워 트레인의 EMC 및 전자기 간섭(EMI) 성능을 검증하고 개선하는 고주파 시뮬레이션을 지원한다. Simcenter 3D에 탑재된 Simcenter 고주파수 EM 솔버는 Maxwell의 전자기 방정식을 풀기 위한 적분방(MoM 및 MLFMA)을 기반으로 하는 전파 솔버를 지원한다. 또한 UTD 및 IPO를 기반으로 점근법(asymptotic methods)을 사용할 수 있고, 2.5D 및 전체 3D 필드 문제를 효율적으로 해결하기 위해 다양한 솔버가 통합되었다. 솔버 가속 옵션(MLFMA, DDM, 다중 경계 조건 MoM기반 알고리즘)이 내장되어 대규모 시스템의 계산 시간을 단축한다. (12) 안전 시뮬레이션  Simcenter 3D Safety(Madymo)는 자동차 안전 시뮬레이션에 광범위하게 사용되고 있으며, 엔지니어가 고급 통합 안전 시스템을 생성하는 데에 필요한 기능을 제공한다. Simcenter 3D Safety는 탑승자 및 보행자 안전 개발을 위한 전용 사용자 환경을 제공하며, 빠르고 정확한 솔버는 광범위한 DOE 및 최적화 연구를 가능하게 한다.  Simcenter 3D Safety는 다물체 동역학(MBD), 유한요소(FE) 및 전산유체역학(CFD) 기술을 단일 솔버에 통합하여, 엔지니어에게 정확성과 속도 간의 적절한 균형을 유지하면서 안전 시스템을 모델링할 수 있는 유연성을 제공한다. 또한 활성 인체 모델은 모든 뼈, 근육 및 연부조직 재료로 인체를 모델링할 수 있어, 충돌 안전 시뮬레이션 시 차량 탑승자 및 보행자의 골격, 근육, 관절 등의 상세 상해정도 분석 및 평가를 지원한다. (13) 타이어 시뮬레이션 Simcenter 3D Tire는 차량의 동적 시뮬레이션을 위해 타이어의 거동을 모델링하는 플랫폼과 서비스를 제공한다. Simcenter 3D Tire를 통해 차량 제조 업체와 공급 업체는 실질적인 타이어 특성을 고려할 수 있고, 모든 동역학 시뮬레이션 툴 및 연산 시스템과 연동될 수 있는 타이어 모델을 변수화 및 표준화하기 위해 필요한 타이어 테스트를 최소화할 수 있다.  MF-Tyre는 모든 주요 차량 동적 시뮬레이션 툴에서 사용할 수 있는 Pacejka Magic Formula 기반 타이어 모델이다. MF-Swift는 승차감, 도로 하중 및 진동 분석을 위한 MF-Tyre의 확장 모듈이다. MF-Swift는 MF-Tyre 기능에 일반적인 3D 장애물 포위(obstacle enveloping) 및 타이어 벨트 동역학을 추가 지원한다. 이러한 접근 방식을 통해 모든 관련 차량 동적 시뮬레이션을 수행할 수 있는 올인원(all-in-one) 타이어 모델의 생성을 지원한다.      좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-31
인텔, “5세대 제온 및 코어 울트라 프로세서로 AI PC 시대를 주도한다”
인텔은 데이터 센터부터 클라우드, 네트워크, PC, 에지 등 다양한 인프라에서 AI 솔루션을 구현할 수 있도록 지원하는 5세대 인텔 제온 프로세서와 인텔 코어 울트라 프로세서를 출시했다. 5세대 인텔 제온(Intel Xeon) 프로세서 제품군은 모든 코어에 AI 가속기를 내장해 AI 성능 및 전반적인 성능을 높이고 총소유비용(TCO)을 줄인다. 그리고 노트북용 인텔 코어 울트라(Intel Core Ultra) 프로세서 제품군은 인텔 4 공정 기술 및 40년 만에 최대 규모로 변화한 아키텍처를 기반으로 설계된 프로세서로 높은 전력 효율을 제공한다. 또한, 인텔은 2024년 출시 예정인 차세대 AI 가속기 ‘인텔 가우디3(Intel Gaudi3)’에서 기업의 대규모 언어 모델(LLM) 및 딥러닝 워크로드 실행에 최적화된 성능을 제공할 예정이라고 밝혔다.   ▲ 5세대 인텔 제온 스케일러블 프로세서를 선보인 인텔코리아 나승주 상무   5세대 인텔 제온 프로세서 제품군은 이전 세대 제품 대비 성능과 효율성에서 큰 폭의 개선을 보이면서, 초대형 AI 모델뿐 아니라 에지 및 클라이언트에서 점차 증가하는 민첩한 소규모 AI 모델 수요를 충족시키며 하이브리드 AI 성장을 지원한다. 4세대 제온과 비교해, 새로운 제온 프로세서는 동일한 전력 범위 내에서 평균 21% 향상된 범용 컴퓨팅 성능을 제공하며, 평균 36% 향상된 와트당 성능을 제공해 기업의 광범위한 워크로드 요구사항을 충족시킨다. 인텔은 5년 주기로 업그레이드하는 고객 및 이전 세대에서 업그레이드하는 고객이 최대 77%까지 TCO를 절감할 수 있다고 전했다. 제온은 AI 가속기를 내장한 메인스트림 데이터 센터 프로세서다. 새롭게 출시되는 5세대 제온은 최대 200억 개 파라미터 규모의 대형 모델 상에서 최대 42% 향상된 추론 및 미세 조정 성능을 구현한다. 그 밖에도 MLPerf 훈련 및 추론 벤치마크 결과에서 일관적으로 성능을 향상시켜 온 것으로 나타났다. 제온에 내장된 AI 가속기는 통신 서비스 제공업체, 콘텐츠 전송 네트워크 및 소매·의료·제조를 포함한 다양한 시장을 대상으로 최적화된 소프트웨어 및 향상된 텔레메트리(원격자료송수신) 기술과의 결합을 통해 까다로운 네트워크 및 에지 워크로드를 더욱 손쉽고 효율적으로 배포할 수 있도록 지원한다. 인텔코리아의 나승주 상무는 “5세대 인텔 제온 프로세서는 AI 워크로드를 효율적으로 처리하기 위해 설계된 제품으로, 고객이 클라우드, 네트워크에서 에지에 이르는 광범위한 인프라에서 AI 역량을 갖추도록 지원할 것”라며, “인텔은 AI 인프라 구축 및 배포를 쉽게 만드는 하드웨어와 소프트웨어를 함께 제공함으로써 개발자가 어디서나 AI를 구현할 수 있도록 지원할 것”이라고 말했다.   ▲ 인텔 코어 울트라 프로세서를 선보인 인텔코리아 최원혁 상무   인텔 코어 울트라는 인텔 최초의 클라이언트 온칩 AI 가속기인 ‘신경처리장치(NPU)’가 새로 탑재돼 이전 세대와 비교해 2.5배 높은 전력 효율성을 제공하며, AI 가속 기능을 지원한다. 높은 수준의 GPU 및 CPU가 탑재돼 AI 솔루션 실행 속도를 더욱 가속화시킨다. 인텔 코어 울트라는 2024년 전 세계 노트북 및 PC 제조사의 230여 가지의 제품에 탑재돼 AI 가속 기능을 지원할 예정이며, 인텔은 앞으로 100여 개의 독립 소프트웨어 공급업체(ISV)와 협력해 PC 시장에 AI로 개선된 수백 가지의 애플리케이션을 선보일 계획이다. 인텔은 일반 소비자 및 기업 고객이 자신의 PC에서 이전보다 더 큰 규모로 더욱 광범위해진 AI 기반 애플리케이션의 성능을 활용할 수 있게 될 것으로 보고 있으며, AI의 성능 향상 이점에 힘입어 AI PC가 2028년까지 PC 시장에서 80%의 비중을 차지할 것으로 예상한다. 인텔코리아의 최원혁 상무는 “앞으로 2년 동안 인텔은 전용 AI 가속기를 탑재한 1억 개의 클라이언트 프로세서를 공급할 것이며, 이는 시장에서 가장 많은 물량을 공급하는 것”이라면서, “인텔은 폭넓은 하드웨어와 소프트웨어 파트너사들이 포함된 생태계와 협력해 차세대 컴퓨팅인 AI PC에서 최고의 위치를 점유해 나갈 것”이라고 설명했다. 인텔은 5세대 제온과 코어 울트라가 다양한 분야에서 에지 컴퓨팅의 새로운 활용 사례를 제시할 것으로 전망했다. 에지 컴퓨팅은 컴퓨팅 시장에서 가장 빠르게 성장하고 있으며, 향후 10년 안에 전 세계적으로 4450억 달러(약 578조 550억 원)의 가치를 지닌 시장으로 성장할 전망이다. 특히 에지 및 클라이언트 장치는 데이터 센터와 비교해 1.4배 더 많은 AI 추론 수요를 견인하고 있으며, AI는 가장 빠르게 성장하는 에지 컴퓨팅 워크로드가 됐다. 한편, 인텔은 “개발자가 사용하는 AI 프레임워크에 대한 최적화 기능 및 원API(oneAPI)를 통한 라이브러리 제공, AI 워크로드/솔루션에 하드웨어 가속 기능을 적용한 고급 개발자 도구 등 AI 하드웨어 기술의 접근성과 사용 편의성을 높이기 위해 노력하고 있다”면서, 딥러닝 및 대규모 생성형 AI 모델용 차세대 AI 가속기인 ‘인텔 가우디3(Intel Gaudi3)’가 2024년 출시될 것이라고 밝혔다. 인텔은 경쟁력 높은 TCO 및 가격대와 함께 더욱 향상된 성능 혜택을 바탕으로 가우디 파이프라인을 빠르게 확장하고 있다. 인텔은 생성형 AI 솔루션 수요가 증가하면서 2024년에는 가우디가 주도하는 AI 가속기 제품군을 주축으로 가속기 시장 점유율을 넓히겠다는 전략도 제시했다. 인텔코리아의 권명숙 사장은 “현재 전 산업의 디지털 전환 수요가 고도화되는 가운데, AI 혁신의 가속화로 인해 현재 GDP의 약 15%를 차지하는 디지털 경제의 비중이 앞으로 10년 안에 약 25%로 증가할 것이며, AI는 이를 가속화해 결국엔 GDP의 1/3 규모로 성장할 것”이라면서, “인텔은 효율적인 최상의 AI 성능을 제공하는 하드웨어 및 소프트웨어 솔루션을 지원해 고객이 클라우드, 네트워크는 물론 PC와 에지 인프라까지 AI를 원활하게 구축하고 확장해나갈 수 있도록 지원할 것”이라고 전했다.
작성일 : 2023-12-18
유아이패스, IDC 마켓스케이프 지능형 문서 처리(IDP) 부문 리더로 선정  
유아이패스가 시장 조사 기관 IDC(International Data Corporation)가 최근 발표한 ‘IDC 마켓스케이프: 전 세계 지능형 문서 처리 2023-2024 업체 평가’(IDC MarketScape: Worldwide Intelligent Document Processing (IDP) 2023-2024 Vendor Assessment)에서 리더로 선정되었다고 밝혔다. 본 보고서는 광학 문자 인식(OCR), 컴퓨터 비전, 자연어 처리(NLP), 머신/딥 러닝과 같은AI 기술을 활용하여 정형, 반정형, 비정형 문서에서 정보를 분류하고 추출하는 방식을 평가했다. 해당 보고서에 따르면, 유아이패스는 AI 기반 자동화 플랫폼 분야에서 훌륭한 성과와 폭넓은 마켓 리더십을 기반으로, 광범위한 자동화 워크플로우에 문서 처리 기술을 통합하려는 신규 및 기존 고객의 시장을 주도하기에 유리한 위치를 선점한 것으로 나타났다.                                                                                                              IDC 컴퓨터 비전 AI 툴 및 기술 연구 프로그램 디렉터 매트 아카로(Matt Arcaro)는 이 보고서에서 "유아이패스는 몇 년 만에 IDP 포트폴리오의 역량, 기능, 범위를 구축하고 확장하는 데에 있어 엄청난 진전을 이루었다”고 평가하며, “유아이패스의 포트폴리오는 도큐먼트 언더스탠딩, 커뮤니케이션 마이닝, 비즈니스 오토메이션 플랫폼 등을 기반으로 점차 모듈식으로 통합되고 있다. IDP에 대한 광범위한 테스트, 학습 및 확장을 꾀하고자 하는 조직에게 유아이패스는 매우 매력적인 선택지”라고 설명했다.   더불어 유아이패스는 자동화를 통해 AI의 혁신적인 힘을 운영할 역량을 갖춘 유일한 기업으로 평가받았으며, AI의 역량을 바탕으로 경쟁 우위를 확보하고자 하는 모든 비즈니스, 조직, 기업에 알맞은 업체로 주목받고 있다. 유아이패스는 일상적인 업무 및 운영에 인텔리전스를 원활하게 통합하여 모든 지식 업무를 자동화하고, 직원의 역량을 강화하며, 비즈니스 현장에서의 AI(AI at Work)를 통해 전 산업군에 걸쳐 혁신을 선사한다.  유아이패스는 자동화를 통해 조직 내 모든 비즈니스 영역에 있어 생성형 및 전문 AI의 이점을 제공할 수 있는 자산, 프로세스 인텔리전스, 플랫폼 규모를 보유하고 있다. 유아이패스의 전문 AI 기능은 조직의 데이터를 기반으로 학습되고, 조직 내 특정 요구 사항을 기반으로 최적화 과정을 거친다. 또한 생성형 AI기능은 비정형 데이터를 추출하고 IDP에 대한 비즈니스 가치 실현을 가속화해 전반적인 모델 학습 시간을 단축한다. 이러한 AI 기능을 탑재한 유아이패스 비즈니스 오토메이션 플랫폼은 뛰어난 정확성을 갖춘 맞춤형 솔루션으로 주목받고 있다.  유아이패스 최고제품책임자 그래햄 쉘든(Graham Sheldon)은 "많은 고객들이 AI 기반 자동화의 이점을 경험하기 위해 유아이패스를 선택한다”며 “유아이패스는 고객의 AI 요구 사항을 충족하기 위해 지속적으로 플랫폼을 발전시켜 나갈 것"이라고 말했다. 이어 그는 "개방성과 유연성을 갖춘 엔터프라이즈 비즈니스 오토메이션 플랫폼을 통해 자동화 업계를 선도하겠다는 의지가 올해 IDP 업체 평가의 리더 선정으로 나타났다”고 덧붙였다.  유아이패스가 제공하는 IDP관련 AI 기능은 다음과 같다.  도큐먼트 언더스탠딩: 도큐먼트 언더스탠딩은 유아이패스 비즈니스 오토메이션 플랫폼의 핵심 기능으로, 다양한 문서 유형과 사용 사례에 대한 AI 기반 문서 분류 및 데이터 추출 기능을 제공한다. 재무, 고객 지원, 인사, 조달, 영업 등 조직 전반에 걸쳐 문서 집약적인 프로세스의 엔드 투 엔드(End-to-end) 자동화를 가능하게 한다.  커뮤니케이션 마이닝: AI를 활용하여 메시지에서 의도, 맥락, 데이터를 추출하고 자동화에 연결한다. 비즈니스 커뮤니케이션에 대한 AI 기반 인사이트를 제공하여 고객사가 고객과 직원에게 제공하는 서비스를 검토하고 지속적으로 개선할 수 있도록 지원한다.  생성형 AI 및 머신러닝(Machine Learning, ML) 커넥터: 오픈AI(Open AI) 및 Microsoft Azure Open AI 커넥터를 사용하면 예측 텍스트 완성 및 채팅 완성을 지원하는 생성형 AI Chat GPT 기능을 사용할 수 있다. 추가 생성형 AI 커넥터로는 아마존 세이지메이커 (Amazon SageMaker), 아마존 베드록(Amazon Bedrock), 앤트로픽(Anthropic), 구글 버텍스 AI (Google Vertex AI) 등이 있다. 유아이패스 생성형 AI 커넥터는 PaLM2, 쥬라식(Jurassic), 타이탄(Titan), 팔콘-40B(Falcon-40B), 클로드 시리즈(Claude series) 등과 같은 대규모 언어 모델(LLM)에 대한 직접적인 액세스를 제공한다. AI 컴퓨터 비전: 유아이패스 AI 컴퓨터 비전은 업계 내 최고 수준의 성능을 자랑하며, 다양하고 역동적인 사용자 인터페이스를 읽고, 해석하고 상호작용하는 기능을 갖췄다. 유아이패스는 AI 컴퓨터 비전을 활용하여 데이터 입력 자동화 또는 애플리케이션 내 정보 추출과 같이 화면 기반 상호 작용이 필요한 작업의 자동화를 지원한다.  클립보드 AI: 정식 출시를 앞둔 데스크톱 툴로, 고급 AI 및 도큐먼트 언더스탠딩 모델을 사용하여 복사/붙여넣기 작업의 효율성을 개선하고, 보다 많은 직원들이 AI를 활용할 수 있도록 지원한다.  한편, 올해 초 유아이패스는 에베레스트 그룹이 발표한 ‘지능형 문서 처리(IDP) 제품 PEAK 매트릭스 평가 2023’에서 지능형 문서 처리 부문 리더로 선정되었으며, 해당 리더 부문에서 스타 기업으로 평가받았다.    
작성일 : 2023-12-12
AWS, 고성능·저지연 클라우드 객체 스토리지 ‘아마존 S3 익스프레스 원 존’ 정식 공개
아마존웹서비스(AWS)는 ‘AWS 리인벤트 2023(AWS re:Invent 2023)’ 이벤트에서 ‘아마존 S3 익스프레스 원 존(Amazon Simple Storage Service Express One Zone)’을 공개했다. 아마존 S3 익스프레스 원 존은 지연 시간에 민감한 고객의 애플리케이션에 한 자리 수 밀리초의 일관된 데이터 액세스를 제공하기 위해 설계된 고성능 단일 영역 아마존 S3 스토리지 클래스다. 아마존 S3 익스프레스 원 존은 지연 시간이 짧은 클라우드 객체 스토리지로, AWS 리전 내의 모든 AWS 가용 영역에서 표준 아마존 S3 보다 최대 50% 낮은 요청 비용으로 최대 10배 빠른 데이터 액세스 속도를 제공한다. 까다로운 워크로드의 경우, 고객은 컴퓨팅 리소스와 동일한 AWS 가용 영역에 아마존 S3 익스프레스 원 존 데이터를 배치해 컴퓨팅 성능과 비용을 최적화하는 동시에 데이터 처리 속도를 높일 수 있다. AWS의 클라우드 스토리지 서비스인 아마존 S3는 350조 개 이상의 객체를 보관하고 있으며 초당 평균 1억 건 이상의 요청을 처리한다. 하지만 ML 훈련 및 추론, 대화형 분석, 재무 모델 시뮬레이션, 실시간 광고, 미디어 콘텐츠 제작과 같은 새로운 사용 사례에서는 분당 수백만 번 데이터를 쓰고 액세스할 수 있으며, 성능 요구 사항을 충족하기 위해 일관된 한 자릿수 밀리초의 응답 시간이 필요하다. 예를 들어, 인공지능(AI) 및 ML 모델 학습에는 수백만 개의 이미지와 텍스트 한 줄을 몇 분 안에 처리해야 하는 경우가 많다. 성능이 중요한 애플리케이션의 스토리지 지연 시간, 애플리케이션 실행 시간, 컴퓨팅 비용을 줄이기 위해 고객들은 자주 액세스하는 데이터를 아마존 S3에서 맞춤형 캐싱 솔루션으로 옮기는 추세다. 그러나 이렇게 솔루션을 옮기면 복잡성이 증가하고 운영 부담이 커지며, 여러 API 세트를 사용하는 추가 스토리지 인프라를 유지해야 하므로 애플리케이션 수정이 필요하다. 또한 데이터가 인스턴스에 복사되는 동안 컴퓨팅 인프라가 실행되어야 하므로 유휴 컴퓨팅 시간이 발생하여 비용이 증가하고 비효율이 발생할 수 있다. 이번에 발표된 아마존 S3 익스프레스 원 존은 새로운 고성능 스토리지 클래스로, 머신러닝(ML) 트레이닝 및 추론, 대화형 분석, 미디어 콘텐츠 제작과 같은 요청 집약적인 작업을 위한 고성능의 스토리지 클래스다. 아마존 S3 익스프레스 원 존을 통해 고객은 필요에 따라 스토리지를 확장하거나 축소할 수 있으며, 현재 사용 중인 아마존 S3 API(Amazon S3 API)로 작업할 수 있다. 또한 전용 하드웨어와 소프트웨어에 데이터를 복제하고 저장함으로써 아마존 S3 스탠다드(Amazon S3 Standard)보다 최대 10배 빠른 액세스 속도를 제공하여 데이터 처리 속도를 높인다. 아마존 S3 익스프레스 원 존은 액세스 속도를 더욱 높이고 분당 수백만 건의 요청을 지원하기 위해 새로운 버킷 유형인 아마존 S3 디렉토리 버킷에 데이터를 저장한다. 아마존 S3 익스프레스 원 존을 사용하면 데이터 액세스 속도가 아마존 S3 스탠다드보다 최대 10배 빠르다. 따라서 데이터 레이크 쿼리가 최대 4배 더 빠르게 완료되어 분석에 소요되는 워크로드 시간이 단축되므로 데이터 분석가가 인사이트를 도출하고 더 빠르게 의사 결정을 내릴 수 있다. 아마존 S3 익스프레스 원 존을 통해 고객은 스토리지를 확장하거나 축소할 수 있으며, 애플리케이션이 현재 사용되는 것과 동일한 아마존 S3 API를 통해 데이터에 액세스하기 때문에 지연 시간이 짧은 워크로드를 위해 여러 개의 스토리지 시스템을 관리할 필요가 없다.  고객은 몇 번의 클릭만으로 새로운 아마존 S3 디렉토리 버킷(Amazon S3 directory bucket)을 생성하고, 생성한 아마존 S3 디렉토리 버킷에 직접 새 개체를 업로드하거나, AWS 관리 콘솔의 아마존 S3 배치 작업을 사용하여 다른 아마존 S3 스토리지 클래스에 있는 기존 데이터 세트의 개체를 복사할 수 있다. 아마존 S3 익스프레스 원 존은 아마존 S3용 마운트 포인트(Mountpoint for Amazon S3), 아마존 S3 서버사이드 암호화(Amazon S3 Server-Side Encryption), 아마존 S3 블록 퍼블릭 액세스(Amazon S3 Block Public Access)와 같은 아마존 S3 기능뿐만 아니라 아마존 EMR(Amazon EMR), 아마존 레드시프트(Amazon Redshift), 아마존 세이지메이커(Amazon SageMaker), 아마존 베드록(Amazon Bedrock)과 같은 AWS 서비스도 지원한다. 아마존 S3 익스프레스 원 존은 미국 동부(노던 버지니아), 미국 서부(오레곤), 유럽(스톡홀름), 아시아 태평양(도쿄)에서 사용할 수 있으며, 곧 추가 AWS 리전에서도 사용 가능하다. AWS의 제임스 키르쉬너(James Kirschner) 아마존 S3 제너럴 매니저는 “수백만 명의 고객이 저비용 아카이브 스토리지에서 페타바이트 규모의 데이터 레이크에 이르기까지 모든 용도로 아마존 S3를 사용하고 있으며, 매 밀리초가 중요한 가장 성능 집약적인 애플리케이션을 지원하기 위해 사용을 확대하고자 한다”면서, “아마존 S3 익스프레스 원 존은 지연 시간에 가장 민감한 애플리케이션에 가장 빠른 데이터 액세스 속도를 제공하며, 고객이 액세스 빈도가 높은 데이터 세트에 대해 분당 수백만 건의 요청을 처리하는 동시에 요청 및 컴퓨팅 비용을 절감할 수 있도록 지원한다”고 설명했다.
작성일 : 2023-12-06
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
Arm, 업계 리더와 협력해 미래 AI 기반 구축 추진
Arm은 AI(인공지능) 혁신을 촉진하고 AI 기반 경험을 현실화하기 위해 다양한 새로운 전략적 파트너십에 참여하고 있다고 소개했다. AI의 확산은 하드웨어와 소프트웨어 혁신 간의 지속적인 조율에 달려 있다. 이러한 결합은 에지에서 워크로드를 실행하는 작은 센서부터 대형 언어 모델(LLM) 학습을 위해 복잡한 워크로드를 처리하는 가장 큰 서버에 이르기까지 모든 기술의 접점에서 AI 기능을 향상시킨다. 에코시스템이 AI의 진정한 잠재력을 실현하기 위해 움직임에 따라 보안, 지속 가능성, 데이터 한계 등이 모두 어려운 과제가 될 것으로 보인다. 이에 따라 Arm은 에지에서 더 많은 추론을 포함하여 대규모로 AI를 구현할 수 있도록 업계 전반의 협업을 지속적으로 모색하는 것이 중요하다고 보고 있다.  Arm은 이미 개발이 진행되고 있는 자체 기술 플랫폼 외에도 AMD, 인텔, 메타, 마이크로소프트, 엔비디아, 퀄컴 테크놀로지 등 선도적인 기술 기업과 협력하여 보다 반응이 빠르고 안전한 사용자 경험을 위한 고급 AI 기능을 구현하는 데 중점을 둔 다양한 이니셔티브를 진행하고 있다. 이러한 파트너십은 컴퓨팅의 모든 영역에서 차세대 AI 경험을 제공하기 위해 1500만 명 이상의 Arm 개발자들에게 필요한 기본 프레임워크, 기술 및 사양을 제공하게 된다. Arm은 수년 동안 에지에서 AI를 제공하는 데 주력해 왔다. Arm에 따르면, 스마트폰 분야에서 서드파티 AI 애플리케이션의 70%가 Arm CPU에서 실행되고 있다. 그러나 지속 가능한 방식으로 AI를 제공하고 데이터를 효율적으로 이동하는 방법을 모색함에 따라 업계는 에지에서 AI 및 머신러닝(ML) 모델을 실행하도록 발전해야 한다. 한편, 개발자는 점점 더 제한된 컴퓨팅 리소스로 작업하고 있기 때문에 이는 어려운 과제다. Arm은 엔비디아와 협력하여 Ethos-U NPU용 로코드 오픈소스 AI 툴킷인 TAO를 적용하고 있으며, 이는 프로세서에 배포할 목적으로 성능에 최적화된 비전 AI 모델을 생성할 수 있도록 지원한다. 엔비디아 TAO는 대표적인 무료 오픈소스 AI 및 ML 프레임워크인 텐서플로(TensorFlow)와 파이토치(PyTorch)를 기반으로 구축에 사용하기 쉬운 인터페이스를 제공한다. 개발자에게 이는 모델을 쉽고 원활하게 개발 및 배포하는 동시에 더 복잡한 AI 워크로드를 에지 디바이스로 가져와 향상된 AI 기반 경험을 제공할 수 있음을 의미한다. AI의 지속적인 성장에 있어 중요한 측면은 에지에서의 뉴럴 네트워크 배포를 발전시키는 것이다. Arm과 메타는 ExecuTorch를 통해 에지에 있는 Arm 기반 모바일 및 임베디드 플랫폼에 파이토치를 제공하기 위해 노력하고 있다. 개발자는 ExecuTorch를 사용하여 모바일 및 에지 디바이스 전반에서 고급 AI 및 ML 워크로드에 필요한 최첨단 뉴럴 네트워크를 훨씬 더 쉽게 배포할 수 있다. 앞으로 Arm과 메타의 협력을 통해 파이토치 및 ExecuTorch를 활용하여 AI와 ML 모델을 쉽게 개발하고 배포할 수 있다. 메타와의 협력은 Arm이 이미 AI 및 ML 가속기를 위한 공통 프레임워크를 제공하고 딥 뉴럴 네트워크에서 사용되는 광범위한 워크로드를 지원하는 Tensor Operator Set Architecture(TOSA)에 투자한 상당한 성과를 기반으로 한다. TOSA는 Arm 아키텍처에 구축된 다양한 프로세서와 수십억 개의 디바이스를 위한 AI 및 ML의 초석이 될 것이다. 한편 Arm은 상대적으로 저렴한 비용으로 AI를 확장할 수 있도록, AI 워크로드에 초점을 맞춘 다양한 새로운 소형 데이터 유형을 지원하기 위해 노력해왔다. Arm, 인텔, 엔비디아는 2022년 공동 협력을 통해 새로운 8비트 부동소수점 사양인 ‘FP8’을 발표했다. 이후 해당 사양은 탄력을 받으며 AMD, Arm, 구글, 인텔, 메타, 엔비디아로 참여 기업 그룹이 확대되었으며, 함께 공식 OCP 8비트 부동소수점 사양(OFP8)을 개발했다. Arm은 최신 A-프로파일 아키텍처 업데이트에서 이 표준에 부합하는 OFP8을 추가하여 업계 전반의 뉴럴 네트워크에 OFP8이 빠르게 채택될 수 있도록 지원했다. OFP8은 소프트웨어 에코시스템에서 뉴럴 네트워크 모델을 쉽게 공유할 수 있도록 하는 8비트 데이터 형식으로, 수십억 개의 디바이스에서 AI 컴퓨팅 기능을 지속적으로 발전시킬 수 있도록 지원한다. 개방형 표준은 AI 에코시스템에서 혁신, 일관성 및 상호 운용성을 촉진하는 데 매우 중요하다. 이러한 표준에 대한 업계의 협력을 지속적으로 지원하기 위해 Arm은 최근 AMD, Arm, 인텔, 메타, 마이크로소프트, 엔비디아 및 퀄컴 테크놀로지가 포함된 Microscaling Formats(MX) 얼라이언스에 가입했다. MX 얼라이언스는 최근 수년간의 설계 공간 탐색 및 연구를 기반으로 마이크로스케일링으로 알려진 새로운 기술 사양을 공동 개발했으며, 이는 AI 애플리케이션의 소형 비트(8비트 및 8비트 미만) 훈련 및 추론을 위한 세분화된 확장 방식이다. 이 사양은 이러한 소형 비트 데이터 형식을 표준화하여 업계 전반의 단편화를 제거하고 확장 가능한 AI를 구현한다. MX 얼라이언스는 협업의 정신으로 하이퍼스케일 데이터 센터 운영자 및 기타 컴퓨팅 인프라 업계 관계자들로 구성된 오픈 컴퓨트 프로젝트를 통해 라이선스 없는 개방형 MX 사양을 공개하여 업계의 광범위한 채택을 장려했다. 이는 에코시스템 전반에서 확장 가능한 AI 솔루션에 대한 공평한 액세스를 제공해야 할 필요성을 인식한 결과다.
작성일 : 2023-11-16